AI 기술의 발전이 이제 범죄의 방식까지 바꾸고 있습니다. <br /> <br />최근 대학교수 A씨는 딸의 목소리로 5000만원을 입금해 달라는 전화를 받았습니다. <br /> <br />울먹이는 말투까지 너무도 익숙해 곧바로 돈을 보낼 뻔했지만, 실제 딸에게 확인 전화를 걸어 보이스피싱임을 알아챘습니다. <br /> <br />알고 보니 목소리는 인공지능(AI) 기술로 합성된 가짜였습니다. <br /> <br />과거 보이스피싱은 공공기관을 사칭하거나 지인의 말투를 어설프게 흉내 내는 수준이었지만, 이제는 음성 데이터를 확보해 실제와 구분이 어려운 목소리를 만들어내는 ‘딥보이스’ 범죄로 진화하고 있습니다. <br /> <br />딥보이스는 먼저 짧은 통화로 목소리 샘플을 수집한 뒤, AI 프로그램을 통해 유사한 음성을 합성하는 방식입니다. <br /> <br />서울신문 단독보도에 따르면, 해당 매체가 딥보이스 앱에 목소리 녹음 파일을 올리자, 30초 이내에 녹음된 목소리를 분석해 “엄마 핸드폰 고장 나서 100만원만 입금해줘”라는 문장을 실제와 거의 같은 음성으로 재현했습니다. <br /> <br />법무법인 청의 곽준호 변호사는 “목소리 녹음 파일만 있으면 누구나 AI로 쉽게 음성을 만들어낼 수 있어 범죄에 악용되기 쉽다”고 지적했습니다. <br /> <br />경찰 관계자도 “콜센터처럼 목소리 데이터를 수집하는 조직을 검거하기 어렵다”며 “이 같은 수법의 피해가 증가하고 있다”고 밝혔습니다. <br /> <br />경찰청에 따르면 지난해 보이스피싱 피해액은 8545억원으로, 전년보다 91% 증가했습니다. 그러나 딥보이스가 실제로 얼마나 활용됐는지는 공식 통계조차 없는 상황입니다. <br /> <br />AI로 조작되는 것은 목소리만이 아닙니다. <br /> <br />얼굴 사진을 도용해 만든 영상 범죄, 딥페이크 성범죄는 물론, 최근에는 AI로 변조한 사진으로 인터넷은행의 생체 인증을 뚫으려다 적발된 사례도 있었습니다. <br /> <br />황석진 동국대 국제정보보호대학원 교수는 “기술이 정교해질수록 피해자들이 더 쉽게 속게 된다”며 “AI 기반 범죄에 대한 체계적인 대응책 마련이 시급하다”고 강조했습니다. <br /> <br />제작 | 이 선 <br /> <br />#지금이뉴스<br /><br />▶ 기사 원문 : https://www.ytn.co.kr/_ln/0134_202504100834353764<br />▶ 제보 안내 : http://goo.gl/gEvsAL, 모바일앱, social@ytn.co.kr, #2424<br /><br />▣ YTN 데일리모션 채널 구독 : http://goo.gl/oXJWJs<br /><br />[ 한국 뉴스 채널 와이티엔 / Korea News Channel YTN ]